 | | ÁLGEBRA MATRICIAL |
“La generalización es una manera importante de avanzar en matemáticas. Lo que importa es lo concebible, no lo que corresponde directamente
a la experiencia física” (James Joseph Sylvester)
“¿No puede describirse la música como la matemática de los sentidos y la matemática como la música de la razón?” (James Joseph Sylvester)
Conceptos Principales
Una matriz es una estructura rectangular (tabla) formada por filas y columnas, cuyas celdas contienen números reales. Esta tabla se encierra entre un par de paréntesis grandes. La notación para una tabla de n filas y m columnas es
A=
| (
| a11
| ...
| a1n
| )
|
...
| ...
| ...
|
an1
| ...
| ann
|
La tabla se denota por una letra mayúscula, y el contenido en la fila i y columna j por aij.
Por ejemplo, una matriz de 2 filas y 4 columnas:
Los elementos son: a13=7, a24=1, etc.
Una matriz cuadrada es la que tiene el mismo número de filas que de columnas. Este número se denomina “orden” de la matriz cuadrada.
Tipos de matrices y operaciones con matrices
Suma de matrices: La suma de las matrices A y B es otra matriz C en la que cada elemento es la suma de los elementos que ocupan la misma posición: cij = aij + bij. Análogamente para la resta de matrices.
Propiedades:
- Conmutativa: A+B ≡ B+A
- Asociativa: (A+B)+C = A+(B+C)
- Matriz nula O (la matriz neutra de la suma, con todos los elementos a cero): A+O = A
Producto por un escalar: El producto de un escalar r por una matriz A es otra matriz C en la que cada elemento es el producto del escalar por cada elemento de A: cij = r*aij. La división por un escalar r es la multiplicación por el inverso de ese escalar (r−1).
Propiedades:
- Asociativa: (r*s)*A) = (r*(s*A))
- Distributiva: (r + s)*A = r*A + s*A
- Matriz opuesta: −A = (−1)*A
- A−A = O
Producto de matrices: El producto de las matrices A y B es otra matriz C en la que cada elemento es la suma de los productos de los elementos correspondientes de las filas de A y las columnas de B:
cij = ∑aikbkj (sumatoria desde k=1 a m)
Propiedades:
- No conmutativa: A*B ≠ B*A
- Asociativa: A*(B*C) = (A*B)*C)
- Distributiva: (A+B)*C = A*C + B*C
Matriz traspuesta: La matriz traspuesta de una matriz A es la misma matriz en la que se han intercambiado filas por columnas. Si la matriz A es de n filas y m columnas, la matriz traspuesta es de m filas y n columnas. La notación es At (traspuesta de A).
Propiedades:
- (At)t = A
- (A + B)t = At + Bt
- (A * B)t = Bt * At
Matriz diagonal: Es una matriz cuadrada que solo tiene elementos en la diagonal principal, donde los subíndices son iguales: (a11, a22, ... , ann).
Matriz unidad (I): Es una matriz diagonal con todos sus elementos a 1: aij = 1 si i=j y 0 si i≠j.
Matriz inversa (A−1) de una matriz A: es la que cumple A*A−1 = A−1*A = I
Matriz simétrica: Es la que es igual a su traspuesta. At = A
Matriz antisimétrica: Es la que su traspuesta es igual a su opuesta. At = −A
Matriz ortogonal: Es la que su traspuesta es igual a su inversa. At = A−1
Matriz involutiva: Es la que es igual a su inversa. A = A−1
Matriz idempotente: Es la que su cuadrado es igual a sí misma. A2 = A (siendo A2 = A*A)
Matriz nilpotente: Es la que su cuadrado es igual a la matriz nula. A2 = O
Menor complementario del elemento aij de una matriz cuadrada A es el determinante Mij de la matriz que resulta de suprimir la fila i y la columna j de A.
El adjunto de un elemento aij de una matriz cuadrada es: Aij = (−1)i+j * Mij
Matriz adjunta de una matriz cuadrada A: Es la matriz Aa formada por los adjuntos de todos los elementos de A.
El determinante |A| de una matriz cuadrada A es la suma del producto de una línea cualquiera (fila o columna) por sus correspondientes adjuntos. Por ejemplo, utilizando la fila 1,
|A|= ∑a1jA1j (sumatoria desde j=1 a n)
Propiedades:
- A−1 * A = A * A−1 = I
- (A * B)−1 = B−1 * A−1
- (A−1)−1 = A
- (r*A)−1 = r−1 * A−1
- (At)−1 = (A−1)t
- |A−1| = |A|−1
Por definición, la matriz adjunta de una matriz cuadrada de orden 1, A = (a11), es (1), la matriz unidad de orden 1. O, lo que es lo mismo, el adjunto de a11 es 1. Su traspuesta es ella misma. Y su determinante es a11.
Cálculo de la matriz inversa A−1de una matriz A:
Ejemplos:
- Matriz unidimensional.
A = (a11)
Aa = (Aa)t = (a11)
|A| = a11
A−1 = (1 ÷ a11)
A*A−1 = (1)
- Matriz bidimensional.
Aa =
| (
| a22 | −a21
| )
|
−a12
| a11
|
(Aa)t =
| (
| a22 | −a12 | )
|
−a21
| a11
|
|A| = a11A11 + a12A12= a11a22 − a12a21
A−1=
| (
| a22÷|A| | −a12÷|A| | )
|
−a21÷|A| | a11÷|A|
|
- Matriz tridimensional.
A=
| (
| a11
| a12
| a13
| )
|
a21
| a22
| a23
|
a31
| a32
| a33
|
A11=
| |
| a22 | a23
| |
| = a22a33 − a23a32
|
a32
| a33
|
A12=−
| |
| a21 | a23
| |
| = a21a33
− a23a31
|
a31 | a33
|
A13=
| |
| a21 | a22
| |
| = a22a32
− a22a31
|
a31 | a32
|
|A| = a11A11 + a12A12 + a13A13
Aa=
| (
| A11
| A12
| A13
| )
|
A21
| A22
| A23
|
A31
| A32
| A33
|
(Aa)t=
| (
| A11
| A21
| A31
| )
|
A12
| A22
| A32
|
A13
| A23
| A33
|
A−1 = (Aa)t/|A|
Especificación y Generalización en MENTAL
Una matriz unidimensional es una secuencia. Una matriz bidimensional se representa mediante una secuencia de secuencias de la misma longitud. Una matriz tridimensional sería una secuencia de secuencias de secuencias de la misma longitud. Y así sucesivamente. Puede haber todos los niveles que se deseen.
Un ejemplo de matriz bidimensional es: ( (3 2 7 4) (5 9 6 1) )
(matriz 2×4: 2 secuencias de longitud 4).
La siguiente matriz es tridimensional: 4×3×2: 4 secuencias de 3 secuencias de longitud 2:
( ((3 2) (5 7) (1 2))
((3 2) (5 7) (1 2))
((3 2) (5 7) (1 2))
((3 2) (5 7) (1 2)) )
En el caso de una matriz bidimensional x
:
- El número de filas es
x#
- El número de columnas es
(x\1)#
- La fila
i
es x\i
- El elemento de fila
i
, columna j
, es: x\i\j
- La columna
j
es
([x\[1…n]\j])
,
siendo n
el número de filas de x
.
Un elemento de una matriz x
de n
dimensiones es
x\i1\…\in
, siendo i1
... in
los índices correspondientes a cada una de las dimensiones.
- La primera dimensión tiene de longitud
x#
- La segunda dimensión tiene de longitud
(x\1)#
- La tercera dimensión tiene de longitud
(x\1\1)#
- La cuarta dimensión tiene de longitud
(x\1\1\1)#
etc.
Operaciones con matrices
Para las operaciones con matrices podemos usar la notación que queremos excepto usar los operadores aritméticos, pues estos ya poseen una semántica definida. Aquí vamos a utilizar el símbolo aritmético junto con el calificador “m
” para indicar que se trata de una operación matricial. Las variables temporales las indicamos terminando en “x
”.
Matriz nula de n
filas y m
columnas:
〈( O(n m) = (0★m)★n )〉
Suma de las matrices A
y B
(bidimensionales):
〈( (A +/m B) = ((C = A) ⌊Cx↓↓⌋ = ⌊A↓↓⌋ + ⌊B↓↓⌋] ¡Cx)! )〉
Propiedades:
- Conmutativa:
〈( (A +/m B) ≡ (B +/m A) )〉
- Asociativa:
〈( (A +/m B) +/m C)) ≡ (A +/m (B +/m C)) )〉
- Matriz nula;
〈( (A +/m O) = A )〉
Multiplicación por un escalar:
〈( (r */m A) = ((Cx = A) [[Cx↓↓] = r*[A↓↓]] ¡Cx)! )〉
Propiedades:
- Asociativa:
〈( ((r*s) */m A) = ((r */m (s */m A) )〉
- Distributiva:
〈( ((r+s) */m A) = ((r */m A) +/m (s */m A) )〉
- Matriz opuesta:
〈( −A = (−1 */m A) )〉
〈( A−A = O) )〉
Matriz traspuesta (T
):
〈( T(A) = ((n = A#) (m = (A\1)#)
((C = A) [i=[1…n] j=[1…m] (Cx\j\i = A\i\j)] ¡Cx)! )〉
Propiedades:
〈( T(T(A) = A )〉
〈( T(A +/m B) ≡ (T(A) +/m T(B)) )〉
〈( T(A */m B) ≡ (T(B) */m T(A)) )〉
Matriz menor (Menor
) de la matriz A
correspondiente al elemento (i
, j
), eliminando la fila i
y la columna j
.
〈( Menor(A i j) = ((n = A#) (Cx = A) (Cx\i = θ)
[k=[1…n] (Cx\k\j = θ)]) ¡Cx)! )〉
Adjunto (adj
) del elemento (i j
) de la matriz A
:
〈( adj(A i j) = ((−1)^(i+j))*det(Menor(A i j) )〉
Matriz adjunta (Adj
) de la matriz A
:
〈( Adj(A) = ((n = A#) (Cx = A)
[i=[1…n] j=[1…n]) Cx\i\j = adj(A i j)] ¡Cx)! )〉
Determinante (det
) de la matriz A
:
〈( det(A) = +⊣([((a\1\j)*adj(A i j))/(j=[1…n])]) )〉
Matriz inversa (Inv
) de la matriz A
:
〈( Inv(A) = (T((Adj(A)) ÷ det(A)) )〉
Propiedades:
((Inv(A) */m A) ≡ (A */m Inv(A)) = I)
(Inv(A */m B) = (Inv(B) */m Inv(A)))
(Inv(Inv(A))) = A)
(Inv(r */m A) = (1÷r * Inv(A)))
(Inv(T(A)) = T(Inv(A)))
(det(Inv(A)) = 1÷det(A))
Más allá de las matrices tradicionales
Una matriz se puede considerar la generalización de un vector (un vector de vectores) o vector de orden superior, así como el vector se puede considerar la generalización de número. Una matriz de 2 dimensiones sería un vector de orden 2.
Pero la definición de matriz está limitada en varios sentidos:
- Los elementos son números. Con MENTAL los elementos pueden ser de cualquier tipo: variables, funciones, reglas, secuencias, etc. Incluso matrices, es decir, puede haber matrices de orden superior (matrices de matrices).
- La estructura es siempre bidimensional. Con MENTAL las matrices pueden ser de cualquier número de dimensiones.
- No se pueden establecer relaciones entre los elementos de una matriz, o entre los elementos de distintas matrices. Por ejemplo, que un elemento sea común a varias matrices, que un elemento sea función de otro u otros, etc.
- Una matriz se puede considerar también como una función de variables enteras positivas. Por ejemplo, la matriz
se puede interpretar como la función (definida de forma extensiva)
A(1 1)=1 A(1 2)=5
A(2 1)=7 A(2 2)=−2
Con MENTAL esto se puede generalizar a cualquier número de argumentos y de cualquier tipo.
Adenda
Historia
Matriz, en su sentido generalizado, es una entidad que contiene el germen de algo o que es el origen de algo.
El álgebra matricial tiene dos protagonistas principales: Arthur Cayle y James Joseph Silvester, que fueron íntimos amigos, y ambos se inspiraron mutuamente en temas matemáticos. Eran de caracteres opuestos. Cayle era tranquilo. Sylvester era inquieto y temperamental. En matemática, Cayle era formal y racional. Sylvester era emocional. “¿No puede definirse la música como la matemática de los sentidos y la matemática como la música de la razón?” (Sylvester).
Cayle fue el creador del álgebra matricial al introducir las operaciones entre matrices (suma, resta, producto), la matriz inversa, la matriz nula y la matriz identidad. Syvester realizó importantes contribuciones en álgebra matricial, en teoría de números y combinatoria.
El término “matriz” (en inglés matrix, plural matrices) fue acuñado por Sylvester en 1850. Este autor acuñó también los términos de invariante, discriminante y totiente (totient).
- Un invariante es una entidad matemática que no cambia al aplicarle un conjunto de transformaciones. Esta propiedad se denomina “invarianza” o “invariancia”. Un ejemplo sencillo es el de la distancia entre dos puntos de la recta real, que no cambia al sumar un mismo número a los dos puntos. No ocurre lo mismo al multiplicarlos por un número real. El concepto de invariante es de gran importancia en física moderna, especialmente en teoría de la relatividad.
- El discriminante de un polinomio es una cierta expresión de los coeficientes de dicho polinomio que es igual a cero si y solo si el polinomio tiene raíces múltiples en el plano complejo. Por ejemplo, el discriminante del polinonomio ax2 + bx + c = 0 es b2−4ac.
- El totiente de un número natural n es el número de enteros positivos que son primos relativos a n.
Cayley introdujo en 1855 la notación matricial como una forma abreviada y compacta de representar un sistema de n ecuaciones lineales con m incógnitas. Este formalismo surgió a partir de las transformaciones geométricas lineales en el espacio cartesiano bidimensional del tipo
con a, b, c, d constantes. Cayley representó los vectores (x, y) y (u, v) de forma vertical (vectores columna) y los coeficientes mediante una tabla de 2×2, y lo escribió así:
Cayle pensó que este sistema se podía extender para representar transformaciones lineales en un hiperespacio, un espacio de n dimensiones. Las matrices como un medio para generalizar el espacio tridimensional, y el álgebra matricial para hacer posible el cálculo en el espacio de n dimensiones.
Cayle pensó que su sistema no era más que una forma de representación compacta y que era poco probable que tuviera aplicación práctica alguna vez. Se equivocó. No llegó a vislumbrar todo su potencial. Hoy día el álgebra matricial es indispensable en matemática y en muchos otros dominios: informática, ingeniería, física, estadística, economía, etc.
La concepción de Cayle del espacio de dimensiones superiores encontró oposición en muchos matemáticos de su época, como Clement Ingleb, que sostenía (siguiendo a Kant) que el espacio es esencialmente tridimensional y que no tenía sentido un espacio superior a tres dimensiones.
Sylvester defendió la idea de Cayle del espacio generalizado de n dimensiones porque era perfectamente concebible y que el espacio físico real es irrelevante para las cuestiones matemáticas.
La concepción axiomática formal de la matemática es que algo existe si no es lógicamente contradictorio. En MENTAL, una entidad matemática existe si puede construirse en un número finito de pasos o describirse mediante una expresión finita. El lenguaje se libera así de la dualidad verdadero/falso. Las verdaderas dimensiones son los grados de libertad de las primitivas con las cuales se crean expresiones interrelacionadas en el espacio abstracto. El concepto de dimensión de un sistema como su número de grados de libertad fue establecido por Hamilton en 1835, un tema que fue iniciado por Lagrange en su Mecánica Analítica de 1788.
En el siglo XX hubo una verdadera explosión de aplicaciones del álgebra matricial, sobre todo en física (por ejemplo, la teoría de la relatividad de Einstein y la mecánica cuántica matricial de Heisenberg). Hoy día, la tendencia natural de los matemáticos es generalizar, formulando todo en n dimensiones desde el principio, en donde surgen las matrices.
Las matrices tienen muchas aplicaciones, pero sirven especialmente para representar los coeficientes de un sistema de ecuaciones lineales y para transformaciones lineales en general. Por ejemplo, transformaciones geométricas (escalado, rotación, reflexión y traslación). La teoría de matrices se considera una rama del álgebra lineal.
La obra de mayor fama de Cayley es la teoría de invariantes algebraicos incluida en su obra "On the Theory of Linear Transformations" (1845), teoría que fue ampliada por Sylvester.
Cayley preparó el camino al descubrimiento de Felix Klein de que todas las geometrías pueden ser explicadas mediante invariantes de grupos de transformaciones. Cada objeto geométrico se caracteriza por el grupo de transformaciones que lo hacen invariante. Klein demostró que las geometrías euclídea y las no euclídeas son casos particulares de una geometría más general: la geometría proyectiva. Lo presentó en 1872 en su famoso “programa de Erlangen”.
Bibliografía
- Aitken. A.C. (1956). Determinantes y Matrices. Editorial Dossat, 1965. El principal texto de referencia del tema. Un clásico.
- Bell, E.T. Gemelos Invariantes. Cayley y Silvester. Capítulo 21 de Los Grandes Matemáticos. Desde Zenón a Poincaré. Su vida y sus obras. Editorial Losada, Buenos Aires, 1948.
- Birkhoff, G. and MacLane, S. (1957). A Survey of Modern Algebra. The Macmillan Company. Un de los libros de texto clásicos, escrito por dos matemáticos de primer orden.
- Cayley, Arthur. A memoir on the theory of matrices. Philosophical Transactions of the Royal Society of London 148: 17-37, 1858.
- Crilly, Tony. Arthur Cayley: Mathematician Laureate of the Victorian Age. John Hopkins University Press, 2006.
- Finkbeiner, D.T. (1960). Matrices and Linear Transformations. W.H.Freeman and Company. Un libro de texto estándar sobre álgebra lineal. Es comparable a Halmos (1958), pues cubre temas similares. Incluye buenos ejemplos y ejercicios.
- Golub, G.H. and van Loan, C.F. (1996). Matrix Computations. The John Hopkins University Press. Un libro de texto estándar sobre el tema.
- Halmos, P.R. (1958). Finite-Dimensional Vector Spaces. D. van Nostrand Company, Inc. Pese a su antigüedad, es uno de los mejores libros sobre espacios vectoriales finito-dimensionales. Está escrito en un estilo simple y coloquial.
- Horn, R.A. and Johnson, C.R. (1999). Matrix Analysis. Cambridge University Press. Una de las referencias estándar sobre teoría de matrices. Buen compañero de Golub & van Loan (1996).
- Mirsky, L. (1990). An Introduction to Linear Algebra. Dover Publications, Inc. Contiene un buen capítulo sobre matrices unitarias y ortogonales.
- Parshall, Karen Hunger. James Joseph Sylvester, Jewish Mathematician in a Victorian World. John Hopkins University Press, 2006.
- Roman, S. (1992). Advanced Linear Algebra. Springer-Verlag. Incluye un excelente capítulo sobre autovalores y autovectores.
- Schwarz, H.R.; Rutishauser, H. and Stiefel, E. (1973). Numerical Analysis of Symmetric Matrices. Prentice-Hall, Inc. A pesar de su título, es una excelente introducción a los espacios vectoriales y al álgebra lineal.
- Wilkinson, J.H. (1965). The Algebraic Eigenvalue problem. Clarendon Press. Es considerado como la Biblia de los autovalores.
- Zhang, F. (1999). Matrix Theory: Basic Results and Techniques. Springer. Una referencia estándar moderna sobre matrices. Contiene un buen capítulo sobre matrices Hermíticas.